FEN Unegocios
2025-11-24
¿Qué procesos de su organización creen que podrían mejorar con IA generativa?
Recuperado en: https://www.orsys.fr/orsys-lemag/es/aprendizaje-automatico-aprendizaje-profundo-ia-diferencias
IA (Artificial Intelligence): máquinas que realizan tareas que suelen requerir inteligencia humana.
IA Generativa: sistemas capaces de crear contenido como lo hacemos los humanos (texto, imágenes, audio, código).
Idea central: La IA generativa predice patrones para producir contenido original.
IA y algoritmos: Algoritmos como serie de reglas dadas; en el caso de la IA esos algoritmos son construidos por la IA y puede ser mejorados.
Traditional AI vs. Generative AI: What’s the Difference?
Un LLM (Large Language Model) como GPT o Claude es solo una parte del sistema.
Para responder una consulta compleja, se articulan varios segmentos de IA:
📷 Imagen ──▶ 🧠 Computer Vision │ ▼ 🧾 OCR (Texto extraído) │ ▼ 💬 LLM (Comprensión y respuesta) │ ▼ 🧭 Respuesta contextual en lenguaje natural
Un LLM (Large Language Model) es un modelo de inteligencia artificial entrenado con enormes cantidades de texto para:
Un LLM no entiende, sino que modela patrones del lenguaje para generar la respuesta más probable según los datos con los que fue entrenado.
Los modelos de lenguaje procesan texto mediante una serie de pasos y parámetros clave que controlan cómo entienden, representan y generan lenguaje.
Los LLMs no leen palabras completas: dividen el texto en tokens, que pueden ser:
Ejemplos: “inteligencia” → “in”, “tel”, “igen”, “cia”
Claves:
Cada token se transforma en un vector numérico en un espacio de cientos o miles de dimensiones.
Esto permite que el modelo codifique:
Los embeddings son el “idioma interno” del modelo.
Los embeddings que usamos (por ejemplo, con OpenAI o modelos open source) no se crean desde cero cada vez que los aplicamos. En realidad, provienen de un proceso de entrenamiento previo (pre-training) realizado sobre enormes cantidades de texto.
–
Durante el entrenamiento, el modelo analiza millones o miles de millones de frases y aprende relaciones estadísticas entre palabras. El objetivo es que, al ver una secuencia de texto, el modelo pueda predecir la siguiente palabra o reconocer palabras que encajan en el mismo contexto.
| Texto de entrenamiento | Tarea implícita | Lo que aprende |
|---|---|---|
| “El perro ladra en el jardín.” | Predecir “perro” a partir de su contexto (“El … ladra…”) | Que “perro” aparece en contextos parecidos a “gato”, “animal”, “mascota”. |
| “El avión aterriza en la pista.” | Predecir “avión” | Que “avión” se asocia a “vuelo”, “piloto”, “aeropuerto”. |
Así, el modelo descubre automáticamente los significados y las similitudes semánticas sin reglas escritas por humanos.
El modelo transforma cada palabra (o token) en un vector numérico que resume su significado aprendido. Estos vectores viven en un espacio de alta dimensión (por ejemplo, 768 o 1536 dimensiones). En ese espacio, las palabras que comparten contexto quedan cerca entre sí, y las que no tienen relación quedan lejos.
Ejemplo esquemático (espacio 2D simplificado):
Imaginemos que tenemos solo dos dimensiones (en realidad hay miles). Cada palabra se convierte en un punto:
| Palabra | Eje X (animalidad) | Eje Y (domesticidad) |
|---|---|---|
| gato | 0.9 | 0.95 |
| perro | 0.85 | 0.97 |
| lobo | 0.88 | 0.30 |
| avión | 0.10 | 0.05 |
En el gráfico:
Instalación de librerías:
Generación de embeds
from openai import OpenAI
import numpy as np
import faiss # base de datos vectorial
client = OpenAI()
# Textos a convertir en embeddings
sentences = [
"The dog is barking.",
"A cat is sleeping on the couch.",
"A car is driving down the street.",
"I love my pet animal."
]
# Crear embeddings usando el modelo de OpenAI
response = client.embeddings.create(
model="text-embedding-3-small",
input=sentences
)
# Extraer los vectores
vectors = np.array([data.embedding for data in response.data])
print("Dimensión de los embeddings:", vectors.shape)Salida esperada:
# Crear un índice FAISS
index = faiss.IndexFlatL2(vectors.shape[1])
index.add(vectors)
# Consultar algo nuevo
query = "My puppy is barking loudly."
query_vec = client.embeddings.create(
model="text-embedding-3-small",
input=query
).data[0].embedding
# Buscar el texto más parecido
D, I = index.search(np.array([query_vec]), k=2)
print("Resultados similares:")
for idx in I[0]:
print("-", sentences[idx])Resultados similares:
Es la cantidad máxima de tokens que el modelo puede considerar al mismo tiempo.
Más contexto = modelos con “memoria a corto plazo” más amplia.
Estos parámetros no afectan cómo el modelo entiende, sino cómo genera texto. Son esenciales en prompt engineering.
Controla la aleatoriedad.
Temperatura baja (0.0–0.3):
Temperatura alta (0.7–1.2):
Regla:
Controla el porcentaje de probabilidad acumulada desde donde el modelo puede elegir la próxima palabra.
Usado junto a temperatura para ajustar estilo y creatividad.
Límite del número de tokens candidatos que el modelo puede elegir.
Evita que el modelo repita frases o palabras.
Ideal para textos largos, código y redacción formal.
Define cuántos tokens puede generar como salida.
Si max_tokens es muy pequeño → respuestas truncadas.
Si es grande → textos más detallados.
Estos parámetros son importantes para entender el “por qué” del desempeño de un LLM.
Los “parámetros” son los pesos internos del modelo (similares a neuronas).
Más parámetros ≠ mejor siempre
Depende del entrenamiento, datos y arquitectura.
Cantidad de dimensiones en que se representan los vectores.
Afecta:
Cantidad de ejemplos procesados simultáneamente.
Esto afecta:
(No confundir con “batch size” de inferencia en APIs.)
Los modelos mejoran no solo por tamaño, sino por:
| Concepto | Rol |
|---|---|
| Token | Unidad mínima procesada |
| Embedding | Representación numérica del significado |
| Ventana de contexto | Memoria a corto plazo |
| Temperatura | Aleatoriedad |
| Top-p / top-k | Diversidad del texto |
| max_tokens | Longitud de salida |
| Parámetros (weights) | Capacidad del modelo |
| Embedding dimension | Profundidad conceptual |
| Batch size | Estabilidad durante entrenamiento |
Los LLMs no “piensan”: calculan probabilidades en un espacio matemático gigante lleno de significados.
Los modelos actuales pueden clasificarse en cuatro grandes categorías, según su entrenamiento y capacidades.
Entrenados con texto masivo, sin instrucciones humanas.
Generan lenguaje, pero no siguen órdenes de manera natural.
Ejemplos:
Uso típico: pre-entrenamiento, fine-tuning, tareas no conversacionales.
Entrenados con RLHF + datasets de instrucciones. Son los modelos “para conversar”.
Ejemplos:
Uso típico: chat, preguntas/respuestas, análisis de texto, resúmenes, tareas empresariales.
Pueden ver, escuchar, interpretar y generar contenido en múltiples formatos.
Ejemplos principales (2024–2025):
Uso típico: interpretación de imágenes, resúmenes de PDFs, análisis de video, agentes con audio.
Optimizados para una disciplina o tipo de tarea.
Uso típico: casos de uso específicos, empresas que necesitan privacidad, modelos on-premise o en edge devices.
Permiten construir sistemas multimodales completos.
Entrenamiento: El modelo aprende patrones desde grandes volúmenes de datos.
Prompting: El usuario da una instrucción → el modelo genera contenido.
Ejemplo: Prompt: “Escribe un haiku sobre IA generativa.”
Un prompt no es solo una pregunta: es un programa breve que guía el comportamiento del modelo.
Analogía:
Caso: Kasparov vs Deep Blue
Kasparov vs. Deep Blue | The Match That Changed History
Over 20 years ago, World Champion Garry Kasparov took on IBM and the super-computer Deep Blue in the ultimate battle of man versus machine. This was a monumental moment in chess history and was followed closely around the world. This match appealed to chess players, scientists, computer experts, and…
Caso: AlphaGo vs Lee
AlphaGo vs. Lee: la máquina venció al humano - BBC News Mundo
El programa informático AlphaGo, diseñado por DeepMind para jugar el juego del Go, derrotó al mejor jugador del mundo, el surcoreano Lee Se-dol. Los expertos aseguran que es un hito para la inteligencia artificial.
Caso: OpenAI Five vs Team OG
Explained Simply: How A.I. Defeated World Champions in the Game of Dota 2
In 2019, the world of esports changed forever. For the first time, a superhuman AI program learned to cooperate with copies of itself and…
Conclusión:
> La IA reemplaza tareas, no profesiones completas.
La IA generativa no es solo una herramienta tecnológica: es un catalizador de transformación organizacional que impacta procesos, personas, cultura, modelos de negocio y estrategias de datos.
La IA generativa impulsa cambios profundos porque:
Idea clave: La pregunta ya no es “¿podemos usar IA?”, sino “¿cómo reorganizamos nuestro trabajo para aprovechar IA de forma estratégica?”
La IA solo genera valor si está vinculada a metas del negocio.
Mensaje clave:
La IA es una herramienta estratégica, no un juguete tecnológico.
El mayor freno a la adopción no es técnico: es cultural.
La IA necesita un marco formal de gestión responsable:
La IA generativa afecta múltiples áreas al mismo tiempo:
Las oportunidades pueden clasificarse en tres arquetipos:
La IA ejecuta parte de la tarea y el humano sigue controlando.
Humano + IA colaboran para producir un resultado final.
La IA automatiza una tarea o proceso completo.
La IA cambia qué tareas hacen las personas y cómo se distribuye el trabajo:
Idea clave:
> La IA no reemplaza profesiones completas; reemplaza tareas dentro de ellas.
La IA generativa introduce enormes oportunidades, pero también dilemas éticos que deben gestionarse desde una mirada estratégica, responsable y centrada en las personas.
Los sesgos son uno de los riesgos más frecuentes y peligrosos en sistemas de IA. La IA aprende de datos históricos que pueden contener desigualdades y, por tanto, puede amplificarlas.
La personalización aumenta la utilidad del sistema, pero genera tensiones con la privacidad. A mayor personalización, mayor necesidad de datos personales.
La IA generativa plantea desafíos legales y éticos en torno a la autoría y el uso de datos.
Cloudflare CEO warns AI is keeping businesses and their customers apart - The Logic
Matthew Prince is calling on publishers and companies to block AI developers from taking their content, in hopes of forcing them to pay for it
Muchos modelos de IA —especialmente los LLMs— funcionan como cajas negras: sabemos qué entra y qué sale, pero no cómo se tomó la decisión.
La IA no es una excusa para evitar responsabilidad. Siempre debe haber un responsable humano por las decisiones donde la IA participa.
“Quería que ChatGPT me ayudara. Entonces, ¿por qué me aconsejó cómo suicidarme?” - BBC News Mundo
ChatGPT escribió una nota de suicidio para una joven con problemas mentales y le aconsejó cómo quitarse la vida, según una investigación de la BBC.
OpenAI estima que más de un millón de sus 800 millones de usuarios semanales parecen expresar pensamientos suicidas
El principio de fairness busca evitar discriminaciones directas o indirectas.
Los principios éticos deben integrarse desde la concepción del proyecto, no como un “parche” posterior.
La ética en IA no es solo buena práctica: es buena estrategia de negocios.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems (NeurIPS).
Disponible en: https://arxiv.org/abs/1706.03762
OpenAI et al. (2019). Dota 2 with Large-Scale Deep Reinforcement Learning. arXiv preprint arXiv:1912.06680.
Disponible en: https://arxiv.org/pdf/1912.06680
© Sebastián Egaña Santibáñez